Loading...
机构名称:
¥ 1.0

ychen200@ua.edu Uzma Raja 奥本大学 uraja@auburn.edu 摘要 AI 推荐系统越来越多地应用于各种情境中,通过提供个性化推荐来促进集体利益,这些推荐有利于用户群体而不是个人。然而,追求集体利益有时可能会与个人偏好相冲突,导致用户认为推荐与他们的最佳利益背道而驰。这种现象涉及交通管理、环境保护、社会服务分配和医疗保健建议等各个领域。当用户不了解底层算法时,他们可能会遇到与他们的期望不一致的结果,从而导致怀疑并削弱对 AI 工具及其不透明决策过程的信任。因此,实现服务集体利益的总体目标成为一项挑战。这凸显了 AI 系统对可解释性的迫切需求。可解释人工智能 (XAI) 是一组过程和方法,允许人类用户理解和信任机器学习算法创建的结果和输出 (Arrieta 等人2020)。尽管在研究、实践和监管话语中受到越来越多的关注,但可解释性对基于集体利益的人工智能系统的影响仍有待探索。本文以锚定效应和计划行为理论的理论基础为基础,探讨了可解释性在培养信任和采用基于集体利益的人工智能系统中的关键作用,特别是在面对与个人最佳利益不同的建议时。具体来说,我们研究哪些特征或变量可以帮助解释人工智能推荐系统,从而促进采用基于集体利益的人工智能建议。此外,我们探讨了用户的人口统计特征和与推荐相关的感知成本如何影响可解释性对他们的信任和采用此类人工智能系统的意图的影响。

推荐引用 推荐引用 Hojjati, Yalda;Chen, YuanYuan;和 Raja, Uzma,“可解释性对基于集体兴趣的人工智能推荐系统的影响”(2024 年)。AMCIS 2024 TREOs。 183. https://aisel.aisnet.org/treos_amcis2024/183

推荐引用 推荐引用 Hojjati, Yalda;Chen, YuanYuan;和 Raja, Uzma,“可解释性对基于集体兴趣的人工智能推荐系统的影响”(2024 年)。AMCIS 2024 TREOs。 183. https://aisel.aisnet.org/treos_amcis2024/183PDF文件第1页

推荐引用 推荐引用 Hojjati, Yalda;Chen, YuanYuan;和 Raja, Uzma,“可解释性对基于集体兴趣的人工智能推荐系统的影响”(2024 年)。AMCIS 2024 TREOs。 183. https://aisel.aisnet.org/treos_amcis2024/183PDF文件第2页

相关文件推荐